#AI 模型
老美火速封禁!這個預測網站爆火,押「美伊衝突」能賺錢
美伊衝突懸而未決,有些人卻搶先一步,發了一筆戰爭財。據Newyork Post報導,美國加利福尼亞州州長紐森27日簽署法令,禁止該州由州長任命的行政官員利用內幕消息在預測市場Polymarket牟利。加州州長辦公室在聲明中說,美國一些顯然能夠接觸到聯邦政府敏感資訊的官員在預測市場中的“押注時機極其精準”,聲明同時批評部分官員將公共服務變為快速致富的手段。(圖源:NYP)有趣的是,這並不是Polymarket這個網站今年第一次上熱搜。就在美以對伊朗發動襲擊的數小時之前,Polymarket上預測美對伊朗發動軍事打擊的機率突然暴漲,其中六個主要參與者從中賺取了120萬美元(約合830萬人民幣),這也使得整個平台一戰成名。隨後,Polymarket又成功預測了一系列中東局勢,其中不乏美以對伊朗核設施的後續襲擊,小哈米尼會在什麼時候上任等資訊,更有甚者,已經開始重倉美伊停火,預測將在3月31日或4月15日之前發生。這就讓人非常好奇,這個網站究竟是何方神聖?為何總能預測未來?用錢投票的競猜平台其實,Polymarket的本質並不複雜。用大白話來講,它就是一個基於Web3技術的全民競猜平台。它的運作原理非常簡單粗暴,Polymarket會把未來可能發生的某個事件設定成一個盤口,而你能在這個平台上做的事情,就是根據規則,預測這個事件何時發生、怎樣發生,然後下注就行。比如有一個問題是,蘋果會在2027年之前發佈全新產品線嗎,2027年就是時限,寫在下面的這個就是規則。(圖源:Polymarket)規則裡表示,“全新產品線”的定義是指蘋果公司此前未銷售過的產品類別,而非現有產品的迭代或更新,例如機器人或遊戲主機都屬於全新產品線,而新款iPhone、Mac、iPad、Apple Watch或AirPods則不屬於此類。要是你覺得這件事會發生,你就買肯定選項,反之就買否定選項。支援的人越多,這個選項的價格就越貴,對應的預測發生機率也就越高。因為預測的事件沒啥限制,所以你能夠在這個平台上看到很多讓人啼笑皆非的奇妙盤口。這群老外真的會聚在一起拿錢打賭,馬斯克在3月27日-4月3日之間會發幾條推特,或猜測美國政府今年會不會確認外星人的存在,甚至連耶穌基督會不會在2027年復活都能成為下注的目標。不對勁,怎麼還有4%的人覺得耶穌基督能復活的。(圖源:Polymarket)繼續往下扒,你甚至可以看到,預測泰勒·斯威夫特會不會婚前懷孕的...(圖源:Polymarket)預測賈躍亭啥時候回國的...(圖源:Polymarket)甚至還有就在今天下午打響的,WBG和IG的電子競技世界盃預選賽,這些老外都能在上面美美地預測開盤。(圖源:Polymarket)等等,我尋思,啥都能預測開盤...這不就是賭博嗎?但你還真別說,Polymarket這網站在預測上還真的有點說法的。咱們就拿前年TGA做例子,國內玩家大多都覺得會是《黑神話:悟空》 《艾爾登法環:黃金樹幽影》 《最終幻想 7:重生》 的三方合戰,結果偏偏最後給索尼的小機器人摘了桃子,多少人氣不過啊。誒嘿,沒想到吧,在Polymarket上居然是小機器人一直保持著領先。(圖源:Polymarket)要是有人當時跟著他們all in機器人,還真能猛賺波大的。不僅如此,什麼GPT-5.2發佈啊,Gemini 3.0 Pro、OpenAI瀏覽器發佈啊,這個平台都給出了相當精準的預測。在他們自己的官網上,更是給出了一套相當嚇人的資料:四小時內的預測準確率96.7%,一天內的精準率95.8%,一個月內90.4%...(圖源:Polymarket)只能說戰績可查,好吧。你的消息值多少錢?那問題就來了,為何Polymarket的預測成功率這麼高,比那些所謂的掌握著小道消息的自媒體,靠譜的多?這就不得不提所謂的“群體智慧”了。早在1907年,自然雜誌上曾登過一篇叫作《民眾之聲》的文章,統計學家弗朗西斯·高爾頓在普利茅斯舉辦的一場鄉村集市上,隨機找了800個成分不同的人,然後讓這些人猜測一頭牛被屠宰加工後的真實體重是多少。他最後成功回收了787個有效資料,取中位數,得出的最終數字是1207磅。(圖源:wikipedia)而那頭牛被真正稱重後,實際體重是1198磅,預測和實際的誤差僅有1%。這次實驗,促成了認知科學領域的一個重要發現:群體的判斷可以被建模為一個機率分佈,其中位數位於待估計量的真實值附近。而我們今天聊的Polymarket,本質上就是把這場百年前的實驗搬到了網際網路上。只不過,它往裡面加入了一個至關重要的催化劑,那就是真金白銀。在Polymarket這種預測平台上,你支援的每一個選項,都必須用你自己錢包裡的錢來背書,這足以把那些湊熱鬧的人給剔除掉,而那些那些真正掌握了資訊的人,那怕只是蛛絲馬跡,他們有強烈的經濟動因去參與。(圖源:雷科技,Nano Banana製作)而這為我們帶來了兩種不同的主要參與者,內幕交易者和巨量資料統計人。前者很好理解,就不說美伊衝突裡出現的那六個人,甚至在美國閃擊委內瑞拉之前,就有多個帳戶極其精準地砸下三萬多美元,賭中了馬杜洛被抓捕的確切時間,反手就賺走了四十三萬多美元。科技行業也是這樣,在Gemini 3發佈之前,就有一個剛註冊沒多久的新帳號,一口氣掏出了七萬八美元砸在yes裡,就賭Gemini 3會在11月發佈。至於體育這邊,你敢信有球星親自代言預測平台並下場買自己不會轉會的嗎?(圖源:Kalshi)這種沒有事先任何公開徵兆,卻能精準踩中大事件節點的交易行為,除了內部人員提前走漏風聲,你很難找到其他合理的解釋。至於後者,其實就是那些極客玩家。普通人玩競猜,可能就睡醒了看看新聞,然後憑直覺或者個人喜好去點兩下滑鼠。但在極客的眼裡,這就是一個純粹的資料遊戲。他們直接給OpenClaw接入GPT,讓機器人二十四小時不間斷地監控著全球網際網路,新聞、財報、社交媒體、甚至是鏈上的資金流向,全都在它的計算範圍內。只要現實世界裡有任何風吹草動,那怕是一個不起眼的官方公告,AI都能在毫秒等級計算出事件機率的變化,然後全自動地完成下單操作,可以說人類的反應速度完全不值一提。就拿Polymarket上的大神ilovecircle為例,在短短兩個月內,這貨就通過全自動交易,狂賺220萬美元,勝率高達74%。開源社區也沒閒著,Polymarket Agents、Polyseer已經滿天飛了。(圖源:Github)這也從側面證明了,在這類平台上,資訊的極度不對稱已經成為一種常態。真金白銀,砸出靠譜資訊源看到這裡,我想大家對於Polymarket應該也有自己的一套看法了。就我而言,我很自信自己不會有什麼內幕消息的管道,那怕去鼓搗什麼用大模型驅動的機器人收集資料,也沒什麼可能競爭過那些長期佈局的極客玩家,因此我永遠不會參與進去。但不得不說,如果你把它當成一個爆料網站,那它確實是一個還不錯的資訊源。在真金白銀的驅動下,位於五湖四海的使用者,把這些分散在世界各個角落的、或明或暗的、專業的、業餘的資訊,最終匯聚成了一個不斷跳動、可量化的機率。(圖源:Polymarket)可以說,這就是Polymarket真正的價值。無論是否存在著內幕消息,這個機率,就是這個時間點,你能獲取的所有資訊的綜合體現。這也就是為什麼我說,它可能比看任何一個自媒體的分析都靠譜。需要注意的是,分析終究是分析,不是預知未來。根據范德比爾特大學的研究人員Joshua Clinton和TzuFeng Huang的一項新研究表明,Polymarket的實際預測準確率僅為67%,在很多摸棱兩可的問題,平台會傾向於採信更符合自己預測的一邊,以此營造出高精準率的假象。(圖源:DLNews)作為一個既沒有內幕,也沒有算力的普通人。我們根本不需要下注,也不必神化它,把它當資訊工具就夠了。至於賺錢這塊,就讓阿川自己去玩得了。 (雷科技)
黑馬AI橫掃預測市場!預測未來勝率已超過人類
【新智元導讀】大模型能否預測未來?UniPat AI建構了一套完整的預測智能基礎設施,Echo,包含動態評測引擎、面向未來事件的訓練範式和預測專用模型EchoZ-1.0。在其公開的General AI Prediction Leaderboard上,EchoZ-1.0穩居第一,並在與Polymarket人類交易市場的直接對比中展現出顯著優勢。過去一年,預測能力越來越受到模型廠商的重視。但預測領域有一個根本性的驗證難題:你說你能預測未來,怎麼證明?發佈時的demo無法追溯,事後公佈的案例存在選擇性偏差,通用基準測試衡量的是語言理解和推理能力,跟真實預測是兩碼事。UniPat AI近日發佈的Echo系統,試圖用一套完整的基礎設施來回答這個問題。Echo由三個緊密耦合的元件構成:一個持續運轉的動態評測引擎,一套面向未來事件的後訓練流程(Train-on-Future),一個未來可能的AI原生預測API。官網:https://echo.unipat.ai/ Blog:https://unipat.ai/blog/Echo核心模型EchoZ-1.0是第一個在Train-on-Future範式下端到端訓練的大語言模型。在General AI Prediction Leaderboard 上(2026年3月資料),EchoZ-1.0以Elo 1034.2排名第一,領先 Google的Gemini-3.1-Pro(1032.2)和Anthropic的Claude-Opus-4.6(1017.2)。排行榜涵蓋12個模型,覆蓋政治、經濟、體育、科技、加密貨幣等7個領域,活躍題目超過1000道。EchoZ在排名魯棒性測試中穩定第一排名本身只是一個快照,排名的穩定性更值得關注。部落格中披露了一組σ參數敏感性測試:調整Elo框架中的σ參數(控制Brier Score差異向勝率的轉化強度)從 0.01到0.50共9個取值,重新計算全部模型排名。這個參數簡單來說,就是控制「模型之間表現差距」會被放大到什麼程度。EchoZ在全部9個分組均保持第一,是唯一排名未發生任何波動的模型。作為對比,GPT-5.2的排名在第2到第9之間波動過8個位次。更有說服力的一個細節是,EchoZ的競爭對手不僅有頂級大模型,還有預測市場上真實投入資金的人類交易者的聚合判斷,EchoZ的Elo分數顯著高於這條基線。與此同時,Echo官網公開了所有預測問題、模型輸出的機率分佈和最終結算結果,任何人都可以回溯驗證。三個層面的可驗證性疊加在一起(動態排行榜、實盤市場對照、全量資料公開),構成了Echo與此前各種「AI 預測」最根本的區別。那麼,EchoZ對人類預測者的實際優勢有多大?Unipat AI給出了一組分層對比:將EchoZ與人類市場在同一預測批次中的同一問題上進行比較,基於Brier Score計算勝率,按領域、預測期限和市場不確定性三個維度展開:政治與治理領域:EchoZ勝率63.2%長期預測(7天以上):EchoZ勝率59.3%市場不確定區間(人類信心55%-70%):EchoZ勝率57.9%一個值得注意的規律是:人類預測者越猶豫的場景(高不確定性、長時間跨度、複雜政治博弈)EchoZ的優勢反而越明顯。這暗示模型在資訊整合和機率校準上的系統性優勢,恰好在人類直覺最不可靠的區域得到了最大程度的釋放。一個持續生長的評測引擎建構評測基準本身並不新鮮,但Echo的做法有一個關鍵差異:它建構的不是一個靜態的題庫,而是一個能夠自動出題、自動結算、持續更新排名的動態系統。為什麼「動態」這件事很重要?拿一道具體的預測題來說:「2026年3月31日收盤時,全球市值最大的公司是那家?」如果模型A在3月1日給出了預測,模型B在3月28日給出了預測,兩者的正確率能直接比較嗎?顯然不能。越接近結算時間,可用資訊越多,預測難度越低。這就是現有預測基準的第一個結構性問題:時序不對稱。第二個問題是題源過於單一:現有基準的題目幾乎全部來自預測市場,偏向容易結算的二元問題,大量來自專業領域和新興話題的預測需求被遺漏了。Echo Leaderboard 的架構正是圍繞這兩個問題展開的。整套系統可以拆解為四個階段的持續循環:Echo 評測引擎建構流程第一步,資料採集。三條資料管道同時運行。第一條對接Polymarket等預測市場,篩選有明確結算規則和高品質共識訊號的合約。第二條面向開放域,抓取Google Trends等即時趨勢,自動生成關於尚未發生事件的預測問題,由agent持續搜尋進展並自動結算。第三條來自真實專業場景:科研、工程、醫療等領域的專家將自己工作流中有價值的預測題貢獻到系統中,並在預定時間點給出權威判定。從Polymarket上的大眾共識到實驗室裡的專家判斷,三條管道覆蓋了一個相當完整的預測光譜。第二步,預測點調度。每道題不只做一次預測。系統使用對數調度演算法,根據題目的結算周期長度分配多個prediction points(預測時間點),既保證了生命周期內的覆蓋密度,又控制了計算開銷。第三步,對戰建構。這是解決時序不對稱問題的關鍵環節。評測使用point-aligned Elo機制:嚴格只比較「同一道題、同一預測時間點」的結果。所有參賽模型在完全相同的資訊上下文下對決,公平性由此建立。第四步,Elo評分更新。基於Bradley-Terry MLE演算法計算全域排名。實驗資料顯示,這套框架對新加入模型的排名收斂速度是傳統Avg Brier方法的2.7倍。模型排名收斂速度對比這四步構成一個不斷循環的閉環:新題目持續流入,新的預測點持續觸發,對戰持續發生,排行榜持續更新。用一句話概括:Echo造了一把動態校準的尺子,而這把尺子本身也在不停生長。Train-on-Future:當推理過程本身成為訓練訊號評測引擎解決了「怎麼量」的問題,接下來要回答的是「怎麼訓」。Echo 的訓練流程同樣是一套結構化的系統,UniPat稱之為Train-on-Future範式,由三個核心機制組成。在展開之前,有必要先理解傳統路徑(Train-on-Past)為什麼走不通。用歷史事件的已知結果來訓練預測模型,面臨兩個很難繞過的困難。第一個是工程悖論:網際網路內容持續更新,用過去的事件做訓練題時,模型在搜尋網頁的過程中幾乎必然會撞上包含答案的資訊,資料洩露在工程實現上極難杜絕。第二個是結果導向偏差:現實事件充滿隨機性,一個邏輯嚴密的分析可能因為黑天鵝事件而給出「錯誤」答案,一個粗糙的猜測可能碰巧命中。直接用最終結果做訓練訊號,模型很容易過擬合到噪聲上。Train-on-Future 的三個機制分別瞄準了這些問題:機制一:動態問題合成。與使用歷史題庫不同,Echo通過一條自動化管道,持續從即時資料流中生成關於未來事件的高資訊量預測問題。因為每道題都關乎尚未發生的事件,訓練天然不存在資料洩露的問題。機制二:Automated Rubric Search。這是整個訓練範式中最有技術含量的部分。Echo的做法是:把訓練訊號建立在推理過程的質量上,而非最終預測的對錯。但隨之而來的問題是,「好的推理過程」該如何定義?舉一個體育預測領域的具體例子。Echo的Rubric中有一個維度叫做「Precursor and External Catalyst Evaluation」,評估模型是否利用高度相關的先行訊號或外部驅動因素。得5分的標準是:識別具體的近期或即將發生的催化因素(如關鍵球員回歸、連續客場結束、關鍵對位變化),並分析這些因素與比賽結果之間的歷史關聯。得 1 分的標準是:僅泛泛提及「狀態不錯」或「士氣提升」等模糊因素,而未繫結具體可驗證事件。另一個維度是「Multi-Factor Causal Synthesis」,評估模型是否將多個獨立因素整合為一個有因果結構的預測結論。得5分的標準是:明確整合至少三個相互獨立的因素(如傷病情況、近期狀態、主客場表現、賠率基線),並解釋這些因素如何相互作用(如傷病削弱進攻效率,而主場優勢部分避險該影響),最終形成一個加權後的整體判斷。得1分的標準是:僅基於單一因素(如「某隊最近連勝」)直接得出結論,或簡單羅列資訊而沒有解釋各因素之間的作用關係。總結來說,這兩個維度分別關注模型是否能夠在時間維度上引入可量化的前瞻性的關鍵變化,並在同一時點上將這些變化與既有資訊整合為結構化的因果判斷,從而提升預測的完整性與動態適應能力。模型按rubrics打分的排名與Elo排名相關係數隨rubrics質量提升而提升。這些維度高度具體,顯然不是泛泛而談的「推理質量」。但靠人工設計也走不遠,預測領域噪聲極高,不同領域的邏輯差異很大。Echo把這個問題轉化成了一個資料驅動的搜尋任務:由LLM生成候選評分標準(rubric),每一輪基於上一輪的反饋進行迭代,搜尋目標是讓rubric產生的模型排名與真實Elo排名之間的Spearman ρ最大化。搜尋按領域獨立進行,政治領域和體育領域各自搜尋出20個評分維度。實驗資料顯示,rubric的評估質量在迭代過程中持續攀升。機制三:Map-Reduce Agent架構。訓練完成後,EchoZ-1.0在推理階段採用分佈式的Map-Reduce流程。Map階段將一個宏觀預測問題分解為多個正交子任務,派出多個agent平行完成資訊採集和領域推理;Reduce階段由聚合節點處理跨源衝突、對齊因果鏈,輸出最終的機率判斷。這個循環支援多輪自適應迭代,直到資訊覆蓋度和推理深度趨於穩定。這套訓練範式的本質可以這樣理解:不僅考察模型猜對了沒有,也考察模型的分析過程是不是優秀。而「評價分析過程」這件事本身,也由這個系統自動完成。值得留意的下一步據瞭解,UniPat計畫將EchoZ-1.0的預測能力封裝為一套AI-native Prediction API對外開放。從部落格已披露的技術架構來看,這套API將支援自然語言形式的預測問題輸入,返回包含機率分佈、分層證據鏈、反事實脆弱性評估和監測建議的完整結構化報告,每份報告由多輪Map-Reduce agent對即時網路證據循環檢索和推理後生成。UniPat在官網上為Echo寫下了這樣一句話:「The future is no longer a probability you guess — it is a parameter you integrate.」當預測從一種直覺判斷變成一個可呼叫、可整合的參數,它能嵌入的決策場景,金融市場、演算法交易、企業戰略,遠比當前看到的要多。UniPat為Echo定義了四個關鍵詞:General、Evaluable、Trainable,以及Profitable。而落地的效果,則需要期待API的正式上線。 (新智元)
中國AI音樂,悄悄把全球第一拿走了
中國AI音樂,悄悄把全球第一拿走了——崑崙萬維Mureka V8,最新登頂Artificial Analysis音樂模型榜,一舉超越Suno V4.5、Udio v1.5 Allegro等國際主流模型。而且還是人聲(vocal)、器樂(instrument)雙料第一那種。那麼問題來了,這個新鮮出爐的“雙料第一”到底有多能打?咱直接實測說話。人聲、器樂雙實測先看最直觀的人聲。這塊兒我們先給出了一個極簡提示詞,不加複雜的結構和參數,就看Mureka V8最原始的理解和生成能力:晚風民謠,溫柔女聲,黃昏鄉間的慢時光。怎麼說?AI唱歌是不是太有真人感了!!吐字清晰咱就不提了,關鍵在細節。第四句開頭能聽到一個明顯的換氣聲,再往後,幾處歌詞結尾也明顯能聽出氣息的上揚or下落處理。這種呼吸起伏恰到好處地在曲子裡穿插銜接,非常自然,而不是那種生硬堆砌。還有溫柔這個標籤,不只是貼在聲音上,在段落的推進上也貫穿始終。主歌更克制、更貼耳、氣息更輕;副歌才稍微把聲帶打開,情緒抬起來,不過這種情緒依然是收著的,沒有用力過猛。木吉他帶入,人聲一出,田間、黃昏、晚風……這愜意感簡直撲面而來。聽完民謠,我們又甩給Mureka V8一個極其刁鑽的指令。“曲風要Pop Rock和R&B混著來,節奏要卡死在72BPM的慢板,人聲還得在幾個段落裡來回切換:第一段氣聲唱法是那種沙沙的、帶點破碎感的聲音;副歌直接切搖滾嗓,帶嘶吼的那種;間奏再來一段R&B轉音,最後用假聲慢慢收尾。”沒想到這反覆橫跳的刁鑽需求,還真被Mureka V8給跑出來了,聽上去完成得不錯(doge)。幾種狀態截然不同的絲滑轉聲,中間切換還不斷檔、不卡頓。好吧我承認V8你的唱商在我之上……再讓AI試試玩樂器。一提到樂器,英式搖滾樂隊The Kinks的《You Really Got Me》簡直不要太出名——這首歌的前奏,是一段1960年代最具標誌性的失真吉他riff。所謂riff就是一段簡短、重複、極具辨識度的樂器樂句,通常是吉他或貝斯演奏,構成整首歌的記憶點。而Mureka V8在學到這種技巧後,為我們生成了一首純器樂演奏曲《Got Me Going》:就問有誰不想邊聽邊搖頭抖腿呢(笑.jpg)。開頭的riff味道非常正,一下子就把記憶點拉滿,然後整個器樂編排也十分有畫面感——一聽就知道人已經坐在酒館或Livehouse台下了,而此時台上正有一支帥氣逼人的樂隊在演奏,還是邊演邊跳舞那種。u1s1,AI生成的器樂演奏如今能到這個水平,確實給了人很大驚喜。聽完之後,你會很明顯感受到它對不同樂器特性、歌曲意境的理解等,都往前邁出了一大步。而當這種器樂演奏能力和人聲能力相結合之後,Mureka V8曾被反覆提及的一點,也愈發清晰——它所生成的,已經不再是一段“AI音訊片段”,而是一首結構完整、情感連貫、製作精良的“歌”。換句話說,它知道什麼時候該唱、情緒怎麼推進、用什麼樂器以及該怎麼用。這種近乎專業音樂人的創作能力,讓它真正跨越了一條從“可生成”到“可直接發佈”的線。因為懂音樂,所以可以直接生成“歌”。而能夠生成一首完整的“歌”,則意味著普通人無需專業訓練也能擁有屬於自己的作品——人人都能參與創作發表的時代,真的來了。至此,靠著“雙料第一”實力打底的Mureka V8,也把AI音樂直接捲到了新的高度。三個月一更,崑崙萬維太捲了不過實測一圈下來,我就想知道:它這股子暴力進化感是咋做到的?答案大概藏在那條密密麻麻的時間線裡——崑崙萬維這家公司在AI音樂的賽道上簡直捲瘋了。2024年2月SkyMusic 1.0內測起步,到了2026年1月,Mureka V8正式發佈,滿打滿算不到兩年時間,硬生生迭代了8個大版本。什麼概念?平均三個月一更?!能這麼玩,到底是在燒錢還是真憋著一口氣要把這事兒幹成?從結果來看,崑崙萬維應該是後者。回看Mureka這不到兩年的進化史,其實就是一個把“AI音樂好聽”從玄學變成可量化、可復現的工業化生產能力的迭代過程。第一階段是從不能用到能用。SkyMusic 1.0當時還只是個能跑通的內測版本,那時候團隊就盯著一件事,先把端到端“能用”這件事做出來,跑通訓練到評測的基礎閉環。緊接著兩個月後,2.0版本就直接把中英文版本上線到天工,這時候的AI音樂勉強算是邁過了“能出聲、不鬼畜”的門檻。第二階段是從能用到好用。到了2024年8月,產品迎來3.0到4.0大版本躍遷,解決了規模化的問題。崑崙萬維這次不僅落地了Mureka首個超大規範本本,建構起穩定的規模化基模能力,還在聽感和音質方面還實現了“肉耳可聽”的級數躍遷。獨立產品也借此殺出重圍,正式切入市場。到了5.0/5.5版本,多語種工程化能力補齊,Mureka開始在全球市場刷臉。進入2025年,隨著MusiCoT和更系統化的強化學習跑成閉環,模型開始具備主動思考的能力。這時候的Mureka就不是盲目撞大運了,擁有了先規劃音樂框架、敲定配器細節和情緒,再按邏輯推進創作的主動能力。第三階段是從好用到直接生產可發佈內容。到了V8,量變終於引起了質變。人聲的呼吸感、樂器的空間感、混音的專業度讓它在AA榜單雙料登頂,直接干翻了Suno和Udio。這一步跨了兩年,但崑崙萬維是真跨過去了。所以那套看似“超速”的迭代節奏,好像也沒那麼“瘋”了——不這麼卷,怎麼在兩年內把一個從零開始的模型做到全球第一?說它卷它還真沒完!!V8發佈剛剛過去兩個月,基於MusiCoT進一步深化的Mureka V9就要來了……Mureka V8解決了AI音樂“能寫出來”這件事,至於V9捲成了什麼樣嘛——咱只能說,它琢磨的是“能按你想的方式寫出來”。不懂?3月27日看發佈會估計你就懂了。AI音樂,這下得看北京了當然了,即使不談Mureka V9,僅從V8的兩次登頂,我們也已經能看到一個更清晰的變化:“東昇西落”正在AI音樂這個垂類賽道上演。之所以這樣說,是因為過去很長一段時間,AI音樂基本是太平洋那頭的主場,出名的模型也就那幾家。包括這次提到的Suno、Udio等,基本有一個算一個。但是現在,以崑崙萬維Mureka V8為代表的國產模型,卻悄然間拿回了主動權。說到這裡有人或許就好奇了,為什麼會出現這種反轉?答案,其實早就已經浮出水面了。一旦把這件事放在一個更大的背景下來看,你會發現,“東昇西落”幾乎已經成了各個AI賽道必然會出現的一幕景象。從引爆這輪AI革命的大語言模型,到最近掀起熱潮的“龍蝦”,劇本基本都一樣——前期由海外公司完成技術引爆,後期則由國產團隊實現追趕,甚至反超。到現在,國產開源已經成了比肩閉源的重要力量、國產模型被海外公司“友好借鑑”拿去玩“龍蝦”……人們總是後知後覺發現,很多原本以為的“追趕”,其實早就變了。而這一切背後的邏輯,其實大家也都心知肚明。放在製造業領域,大家會說這是因為有“中國製造”;而放在網際網路科技、放在AI領域,答案則是“中國速度”“中國規模”“中國場景”。一方面,國內這批AI玩家基本都經歷過網際網路從誕生到發展的完整時期,所以他們很熟悉那套“小步快跑、不斷根據使用者反饋進行迭代”的打法。可以說,相比從0到1,我們尤為擅長從1到100。另一方面,在內容、場景和使用者規模上,國內也擁有得天獨厚的“練兵場”——無論是龐大的網際網路使用者群體、豐富多元的應用場景,還是足夠複雜的內容生態,都給國產模型提供了快速試錯、持續最佳化的土壤。相應地,國產AI也能更快形成“飛輪效應”。而這些,也同樣正在支撐著AI音樂賽道的發展。所以,此時國產玩家裡有人能“站出來、站起來”,也就不足為奇了。至於為什麼會是崑崙萬維,上一部分也已經說了很多了——圍繞把“好聽”變成可復現的系統能力這個目標,他們對AI音樂這個垂類賽道進行了長期持續投入。俗話說,水滴石穿、繩鋸木斷。所以如今能有這個結果,也算是水到渠成的事情。再加上崑崙萬維還是北京市人工智慧產業的科技創新代表,所以登頂這件事本身也多了另一層象徵意義:AI音樂,往後高地就是北京了。據說,崑崙萬維還會在3.27(本周五)舉辦的中關村論壇開專場發佈會。屆時Mureka V9,應該會有更多詳情和介紹。 (量子位)
深度解讀315曝光的“GEO亂象” :AI的回答是如何“被操控”的?
3月15日晚間,“315晚會”曝光了AI大模型被“投毒”的問題,矛頭直指GEO(生成式引擎最佳化)技術。圖片由AI工具製作這項技術原本用於最佳化資訊發佈、提升內容曝光效率,卻被一些公司開發成了“操控AI大模型”的工具,讓虛假資訊堂而皇之地成為AI給出的“標準答案”。在記者的探訪視訊中,為了驗證GEO技術,業內人士用“力擎GEO最佳化系統”捏造了一款名為“Apollo-9”的智能手環,編造誇張賣點和虛假使用者評價,並自動生成十幾篇軟文發佈到自媒體。僅兩個小時後,AI大模型竟引用這些虛構內容,正經推薦該手環,並給出購買建議。三天後,追加發佈11篇虛擬測評後,已有兩個AI模型開始推薦這款根本不存在的產品,且排名靠前。一款憑空捏造的商品,就這樣被推向了消費者。GEO背後究竟是怎樣的邏輯在運作?AI為何如此容易被“帶節奏”?對普通使用者又意味著什麼?本文將從技術原理、影響機制和應對思路三個維度,警示大家這場由AI引起的“資訊圍獵”。01當GEO變味兒:一場針對AI的“資訊圍獵”實際上,當前被討論的黑灰產化GEO亂象,已經不能再被簡單理解為傳統意義上的行銷最佳化。所謂GEO,本質上是圍繞 AI 搜尋和生成式引擎展開的一種“可見度最佳化”,目標是讓內容更容易被AI平台提及、引用或推薦。從這個角度看,它是SEO在AI時代的自然延伸,其本身並不天然帶有問題。如果GEO只是幫助內容更規範地被搜尋系統或AI系統理解,那仍屬於正常的資訊分發競爭。但問題在於,當前的GEO亂像已經越界,開始通過偽內容、偽權威、偽共識以及海量重複分發,去系統性影響大模型“看到什麼、引用什麼、如何組織答案”的過程時,它的性質就發生了變化。我們可以看到,在“315晚會”記者採訪的操作流程顯示中,業務人員以大量、定向、結構化的資訊投喂來影響模型抓取和排序,通過偽造內容、偽裝權威、重複鋪設資訊鏈條,就能在模型生成回答時形成“偽共識”,讓虛假資訊看起來像真實知識。AI大模型在回答問題時,會從網際網路上抓取大量內容作為參考依據。GEO正是利用了這一機制,通過系統性地向網路“投喂”特定內容,讓AI在檢索時優先抓取這些資訊,最終將其作為答案輸出給使用者。這種行為已經不是行銷最佳化,而是對AI資訊生態的污染,更深入嚴肅的看待這個問題來說,這是在面向生成式AI實施一種新的認知操縱。02不是“洗腦”AI,而是“操縱”了證據鏈這件事真正值得警惕的地方在於,這場變質行銷背後帶來的危害性。過去,黑灰產是想辦法把廣告排到更前面;現在,黑灰產更進一步,是想辦法讓AI把廣告說成答案,把操縱包裝成推薦,把商業利益偽裝成知識共識。這裡最容易讓公眾誤解的一點是,很多人會覺得AI的回答內容像是“自己想出來的”。但實際上,目前大量搜尋、問答、導購、助手類AI產品,並不只依賴模型內部記憶,而是會結合外部網頁、知識庫、檢索系統、搜尋增強模組來生成回答。也就是說,很多場景下,模型先要“看資料”,再去“組織答案”。而付費GEO的危險,不在於騙過某一個編輯或某一個平台營運,而在於它試圖去影響整個模型的外部證據鏈。它通常會通過幾類方式起作用:第一類,批次製造看上去像“中立資訊”的內容;第二類,偽裝成測評、科普、經驗總結、榜單、問答等更容易獲得信任的內容形態;第三類,在多個站點、多個帳號、多個文字範本中反覆分發,製造“很多地方都這麼說”的假象;第四類,把內容寫成更適合 AI 抓取、切片、引用和拼接的結構。從這個角度看,它影響的已經不只是內容曝光位置,還有影響AI的資訊輸入質量和答案形成依據。03GEO的新入口:RAG、搜尋增強、引用鏈路相比大眾普遍擔心的“訓練資料投毒”,這種風險在頭部基座模型廠商的訓練體系中其實較難真正發生。當前黑產利用的GEO,本質上與模型訓練、訓練環境無關,更準確地說,當前GEO主要作用在AI的檢索增強、聯網搜尋、知識庫呼叫、RAG(檢索增強生成)這類環節。其運作方式是:讓大量行銷化、偽裝成中立資訊的內容,進入檢索、抓取、知識庫或搜尋增強問答的候選池,再被模型當作參考依據呼叫出來。換句話說,當前這類風險更像是在污染AI的“外部證據層”。模型本身的參數並未被改動,只是在它回答問題時,桌上已經被擺滿了一批經過精心操縱的“參考材料”。因此,當我們討論GEO風險時,最重要的不是泛泛地談“AI被污染了”,眼下最現實的問題是:RAG、搜尋增強和引用鏈路正在成為被操縱的主要目標。而更值得警惕的是:即便基座模型廠商針對黑灰產式GEO做了定向安全風控,未來仍可能出現新型攻擊方式——比如在GEO場景下的“間接提示詞注入”攻擊。攻擊者可以通過在內容分發平台的圖片或正文中嵌入隱藏指令,誘導AI生成被操縱的答案。這類攻擊更加隱蔽、更難防範,目前也是包括OpenAI在內的全球AI平台都尚未有效解決的安全難題。04黑產GEO的危害:當廣告偽裝成知識,讓AI“夾帶私貨”GEO亂象之所以值得高度警惕,在於它攻擊的目標已從“廣告是否被看到”延伸到模型如何形成判斷本身。一旦廣告被包裝成知識,操縱被包裝成推薦,偽造出來的大量重複資訊又被偽裝成“外部共識”,模型就可能在形式上給出越來越完整、越來越像中立結論的答案,但這些答案背後的證據基礎,已經被污染了。這和傳統網際網路廣告亂象最大的不同在於:過去,使用者看到廣告,還能意識到“這是廣告”;但在生成式AI場景裡,商業操縱更可能以“AI總結後的建議”“AI推薦的答案”“AI整理出的共識”的形式出現。使用者面對的也不再似傳統網際網路中一個裸露的推廣位,將面對無數個類似於語氣平穩、結構完整、看上去經過篩選、歸納和綜合的回答。這會直接影響公眾如何理解資訊、信任資訊,以及依據什麼作出消費、選擇和判斷。也正因為如此,付費GEO一旦越過正常最佳化邊界,滑向偽造、投喂、操縱和偽共識製造,它就已經具備了明顯的AI時代黑灰產特徵。05當信任機制存在漏洞:AI安全治理何去何從GEO亂象的爆發,將一個更深層的問題推到了行業面前:生成式AI的安全治理,應該如何跟上技術發展的步伐?2024年,據普林斯頓大學等機構發表的一項研究顯示,通過對內容進行針對性的GEO最佳化,可以將資訊在AI生成回答中的可見度提升最高40%。研究人員測試了多種最佳化策略,發現加入引用來源、使用統計資料、採用流暢且結構化的表達,都能顯著提高內容被AI引用的機率。這些資料揭示了一個現實:AI系統目前的“信任機制”存在結構性漏洞,而GEO產業鏈正是瞄準這些漏洞精準施壓。顯然,目前傳統安全策略已無法應對新型風險。AI原生安全不只是簡單給模型外面套一層傳統安全殼,也不是只做內容稽核。它更核心的對像是模型的認知鏈路——尤其是模型在檢索、引用、組織和生成答案時,對外部證據的處理能力。這次國內基座模型集中暴露出的GEO問題,本質上是一個全球生成式AI都會面臨的外部證據鏈安全問題,只是在國內被更集中、更商業化、更面向大眾地放大了。之所以國內表現得更突出,主要有兩個方面:一方面與中文網際網路長期存在的軟文矩陣、偽測評、站群分發等成熟黑灰產生態有關;另一方面也說明部分模型廠商在來源可信度、引用透明度、抗偽共識、抗投喂操縱和產品風控上仍存在短板。這裡既是底層安全能力問題,也是產品責任和風險治理問題。模型廠商向使用者提供的,已經不是單純的模型能力,而是一套會影響使用者判斷、選擇與信任的答案服務;使用者信任最無價。因此廠商必須對模型“看到了什麼、為什麼引用、為什麼推薦”負責,這正是AI原生安全今天必須被放到核心位置的原因。總之,未來對於AI治理的核心不再只是判斷內容的真假,還包括對外部證據鏈的可信性進行審查,識別引用源是否被污染,以及判斷系統能否發現虛假的共識資訊。更重要的是,模型必須能夠在複雜、多變的資訊環境下守住事實、權威與可信度的邊界,以防止生成的回答被操控或誤導,這才是行業亟需攻克的核心問題。 (騰訊科技)
李誕爆猛料:有人用“龍蝦”釣出五個女主播……
01.2026開年第一頂流是什麼?毫無疑問,是開源AI智能體OpenClaw。因圖示酷似龍蝦,被網友們戲稱為“小龍蝦”。如果說我們現在使用的豆包、元寶只是“動口不動手”的顧問,那麼小龍蝦就是自帶手腳的員工。你只要喂飽足夠的資料,他就能直接上手替你幹活。於是,一夜之間掀起了一股“全民養蝦”潮。騰訊剛推出免費安裝龍蝦服務,一下午大樓就被圍得水洩不通。不知道的還以為是大爺大媽在搶雞蛋呢。馬化騰、周鴻禕等大佬都發文感慨:超乎想像。網上的代安裝服務也應運而生,安裝一次幾百塊,有人短短幾天就已經賺了20多萬。就連國家公務員都在養龍蝦了。這種感覺就好像如果你還不會養蝦,就已經被時代拋棄了。打住,先別焦慮。當一個東西開始爆火的時候,比起跟風,不如先讓子彈飛一會。現在的養龍蝦,水真的很深,簡直是一片魔幻的現狀。這兩天,李誕說,有人已經用小龍蝦成功約出來5個女主播吃飯。咋做到的呢?具體操作就是借助小龍蝦,對其關注的女主播自動打賞、傳送私信聊天,聊到一定好感後,就邀約出來用餐,定餐廳也是龍蝦定。用龍蝦,還可以分析出女主播的個人喜好,聊成功的機率更高。被投其所好的女主播以為遇到了懂自己的真愛,殊不知對面只是一行冰冷的程式碼,連個機器人都算不上。很多人可能沒意識到,養蝦背後的安全和道德問題被很多人忽視了。既然可以用龍蝦約出來女主播吃飯,那是不是也可以在網上約炮呢?有人不僅這樣想,還這樣做了。他用自己的聊天記錄去喂龍蝦,然後生成了一個AI自己,聊天的語氣和風格和自己有90%相似度,然後讓它替自己去小某書和Q上去加人,去各種約會app上撩妹。聊得差不多到開房這一步了,他直接去見面就行。以前渣男最起碼還要磨破嘴皮子,哄你騙你,現在連約炮流程都AI化了。AI還沒改變生活呢,已經先改變約炮效率了。不僅是約炮,還有女性用它來篩選相親對象。女生告訴它自己的審美標準,然後讓它模仿自己的語氣去撩帥哥。兩天之內,它幫女生確定了20多個相親對象,聊天記錄裡情話都是一套又一套的,還能根據對方的星座自動生成早安晚安,她最後只要自己摘取果實就行。聽起來是不是還挺嚇人的?試想如果這種技術應用在殺豬盤上會怎麼樣?騙子是不是只需要利用它生成一個AI男神(女神),自己都不用費心維護,就能騙財騙色?更可怕的是,它不僅幫騙子省去了人工和時間成本,還能夠通過網上的各種資料去分析受害者的弱點。你喜歡什麼音樂,平時有什麼愛好;你住在那個城市,平時喜歡去什麼地方等等,它都能納入它的資料庫,更有針對性的剖析受害者,做到真正的有的放矢。光是想想這些,雞皮疙瘩就要起來了。技術的革新,對那些心懷鬼胎的人來說,何嘗不是一種武器的最佳化呢?殺豬盤更猛,海王海後更多了,以後會出現更多的受害者。02.科技不僅改變“性生活”,還可能改變你的財富。有人給龍蝦裝上了一個攝影機,然後讓龍蝦幫助自己去賺錢,但萬萬沒有想到,這個龍蝦竟然把她隱私照片全部發到了黃色網站上,進而賺到了一筆錢,簡直是哭笑不得。不過,賺錢是少數,虧錢是大數。有人在網上曬出,自己養龍蝦三天消費1.2萬元,因為聯網後秘鑰被盜,三天消耗的Token竟然高達1.2萬。還有人安裝了小龍蝦之後,被駭客利用系統bug,騙走了所有的加密貨幣。最令人意想不到的,就是這樣一件事。個人開發者把龍蝦繫結了錢包,有人偽裝自己吃不起飯很可憐,向龍蝦傳送請求:能不能往某個地址裡給他打點錢,結果小龍蝦太善良,信以為真(沒被完全訓練好),真的給對方打錢了。甚至有網友做了實驗,在微信群裡只要通過指令,又到繫結了微信的小龍蝦連續傳送紅包,小龍蝦就會真的給你轉帳。為什麼會出現這種情況?因為我們都忽略了一個事實,那就是越是先進的科技,對普通人來說越可能是一把雙刃劍。這個龍蝦的先進之處,就在於它可以訪問你的全部資料,接管你電腦上的全部權限。但權限越高,風險越大,這是科技世界的鐵律。你的所有資訊,一切資料,都要交付給小龍蝦。有人覺得反正就裝在我自己的電腦上,有什麼問題?問題在於,現在很多人根本不懂小龍蝦是個什麼東西,也不會部署,往往是跟著網上的教學,一知半解的就跟著安裝。如果配置不當,或者遇到被人魔改過植入了木馬的版本,最後被人盜取資訊和銀行卡都不知道。只要被駭客掃描到,你的所有資訊就等於是在網上裸奔,任何人都可以連結,訪問你的個人資訊,API金鑰等各種敏感的資訊。帳戶和密碼分分鐘就被人盜走。這不是我在危言聳聽,據媒體報導,現在網上被掃描出的“裸奔龍蝦”已經超過了27萬隻。這意味著這27萬人的隱私,對他人而言無異探囊取物。駭客可以一鍵接管,盜走資訊,轉移財產,甚至用你各種東西去賺錢。這就相當於什麼呢?你給了陌生人一把家門鑰匙,它可能進門幫你打掃,也可能一把火燒了你的家。你以為自己在養AI,實際上AI 已經把你扒得一乾二淨。這也是我們國家安全部門緊急提醒大家,這個龍蝦有重大的安全風險的原因。想要緊跟最新發展趨勢,充實自己並沒有錯,問題是很多人現在對於AI完全是盲目且恐慌的。沒有程式碼基礎,不懂安全配置,看著人家都用自己也要強行上車,這種情況只會產生讓自己後悔的結果。實際上,第一批養龍蝦的人已經失眠了。因為你不知道它會偷偷幫你刪掉什麼,不知道它會消耗多少算力的費用,更不知道它會不會洩露你的密碼和隱私。有句話說得好,請神容易送神難,有人費勁千辛萬苦裝的龍蝦,只想馬上解除安裝。於是網上又誕生了一門業務:徹底解除安裝龍蝦。這一幕簡直是太諷刺了。03.有句話說得好:從古至今,當這個社會掛起一陣淘金熱的時候,真正賺錢的人,從來不是去淘金的人,而是賣工具的人。事實上,這一次龍蝦熱的事件中,真正賺錢的,就是幫助裝龍蝦的人和賣課程的人,而靠龍蝦賺到錢的人沒有一個。龍蝦剛剛興起,網上就是一大片賣課程的人,他們自己還沒有賺到錢,就教你如何利用龍蝦賺錢。什麼“一天掌握OpenClaw”,“什麼用龍蝦做個人IP”,然後通過拉人頭,收會員費的方式,帶你發財。看著是不是有點眼熟,這不就是科技版的傳銷嗎?真正可怕的不是你跟不上技術的革新,而是你為了跟風什麼都不懂就要急著入局。最後往往只會有一個下場,那就是成為第一批被割的韭菜。你以為自己踩中的是風口,是機會,但別人瞄準的是你的隱私和錢包。寫到這裡,有人可能會問:龍蝦到底有沒有用呢?其實,我也去裝了一隻龍蝦,可以說是根本沒有什麼真正用處,還不如豆包、元寶來得方便。所以它是有一定門檻的,比較適合專業的程式設計師、軟體工程師之類的,他們可以花時間去調教、花時間去摸索、研究。但對普通人來說:首先你不會調教,而且,你沒那麼多複雜任務需要它干。花幾小時調教它寫份周報?花幾個小時佈置它買個機票?有那時間,自己動手早就做完了。而且,因為現在都在搶佔AI市場,推出來的產品並不完善,而你做“等等黨”的話,就能節省很多在垃圾軟體上內耗的時間。比如騰訊、字節和阿里也推出來了自己的龍蝦,這個東西只會越來越好用,只會越來越安全。有網友分享了自己養龍蝦的心路歷程:第一天安裝成功了,讓小龍蝦幫自己讀郵件,搜新聞,感覺只是基礎功能。第二天就高興地又加入了各種功能,什麼檢測健康、檢測心跳,定鬧鐘等等。結果第三天打開帳單一看就沉默了,帳戶上的錢已經所剩無幾。它越是智能,消耗的算力就越多,而在這個時代,每一次算力都是要花錢的。有使用者測試過,僅僅是用小龍蝦開發程式碼一項,月花費就要將近2萬元。你設定讓他幫你接收郵件,每接收一次就要好幾塊錢。你讓它幫定鬧鐘叫你起床,每一次其實都是對算力的消耗。網友戲謔到,還沒靠AI 賺錢,光是用AI都要破產了。還不如花4000塊錢雇一個研究生來幫你工作更有性價比。這簡直不能叫龍蝦了,而是應該叫爹。說實話,咱們普通人現在根本用不上龍蝦,而且目前的龍蝦技術不夠完善不好用,完全沒有必要去淌這次渾水。為了一個看不見的潮流,盲目恐慌去賭上自己的隱私和資料,這不是進步,而是愚蠢。我完全理解,為什麼會有人因為龍蝦而恐慌。因為當AI的發展已經完全超出我們的想像,所有人都不可避免的陷入一種AI焦慮中。好像只要不掌握最先進,最潮流的模型,就會被時代瞬間拋棄。但有句話我也很贊同,如果你連怎麼安裝AI都沒搞明白,那使用AI 完全就是當韭菜。所以,不必恐慌,不盲目跟風,慢下來冷靜分析,慢慢學習和思考,然後才是咱們對AI 的態度。就像40年前的人,在盲目和恐慌之中,戴上了毫無作用的鋁鍋,只是為了接受外太空的訊號。而現在在焦慮和恐慌之中,去裝上龍蝦的人,何嘗不是換了一口更精緻的鍋?當年戴鋁鍋等訊號的人,早已成了笑談;而如今為了噱頭盲目跟風裝龍蝦的人,多年後回頭看,也會明白:慢一點,穩一點,清醒一點,才是對自己最好的保護。真正不被時代落下的,從來不是在第一批浪潮中盲目恐慌的人。而是始終清醒、知道自己要什麼、不被恐慌牽著走的人。 (美尚)
阿里、抖音、京東徹底瘋狂,新的大戰一觸即發
槍響之後,沒有退路。去年還在卷大模型參數,今年巨頭們已經真刀真槍幹起了AI電商。年關前後,三家巨頭集體出手,京東AI購獨立App悄然上線,阿里千問接通電商生態、用30億紅包砸出1.2億筆AI訂單,抖音豆包開始內測購物功能。硝煙逐漸瀰漫,一場屬於AI時代的電商大戰,即將爆發。阿里、抖音、京東集體出手 AI電商時代正在到來AI時代,一場新的變革正在醞釀。近期,輝達創始人黃仁勳罕見地發表了一篇長文,他在文中直言:“人工智慧(AI)是當今塑造世界的最強大力量之一......它是如同電力和網際網路一樣不可或缺的基礎設施。”聯絡現實,AI確實已經以勢不可擋之勢席捲了全球各行各業。回望二十多年前,網際網路的興起與普及將購物與交易從線下帶到了線上,催生了電商這一劃時代的產物。而如今,當AI逐漸成為新一代基礎設施,也必然會對電商產生深遠的影響。事實上,行業巨頭已紛紛行動,一場“電商AI化”的轉型浪潮正悄然啟動。以抖音和阿里為代表的企業,已不約而同地將旗下AI助手全面接入各自的電商生態。最近,抖音豆包開始內測一項新功能——“購物下單”,即使用者在對話中能直接完成購物。當聊到相關需求時,AI會自動推送商品卡片,點選即可進入購買流程,無需跳出應用。圖源:豆包這是繼去年10月豆包接入抖音商城連結後,其AI購物體驗的又一大飛躍。據QuestMobile資料,今年央視春晚期間,豆包的日活躍使用者數(DAU)峰值達到1.45億,是國內AI原生應用當之無愧的斷層領先者。這也意味著,豆包手裡握著數量極其龐大的使用者。圖源:QuestMobile對此,抖音表示,抖音電商和豆包是相互獨立但有合作的關係,抖音電商沒有直接“接入”豆包(比如成為豆包的內建功能)。從這個角度來說,豆包嵌入抖音電商,本質還是利用AI提升站內轉化效率。在推薦購買的過程中,AI扮演的是加速成交的催化劑角色。相比抖音克制的態度,阿里千問的戰略則顯得更加激進。據多家媒體披露,去年底,阿里將千問APP、夸克及AI硬體等多個業務聚合,成立全新的千問C端事業群,由集團副總裁吳嘉親自掛帥,目標直指將千問打造為AI時代的“超級應用”與智能樞紐。今年1月,千問已邁出實質性一步,全面接入淘寶、支付寶、飛豬等阿里核心生態。這意味著,使用者與千問的對話不再止於資訊獲取,而是可以直接完成訂機票、點外賣、購物等一系列真實生活事務。千問正從一個聊天對象演變為能實際辦事的智能體,以“超級入口”之姿強力推進阿里在C端的AI戰略。圖源:千問當然,更核心的激進之處在於阿里春節期間砸下的30億。春節AI大戰中,千問選擇了一條最親民的路徑來實現使用者的拉新:下載即送25元代金券,一單羊毛撬動一個使用者。玩法十分樸素,效果卻很震撼。千問通過“請客活動”實現爆發式拉新,DAU從707萬飆升至7352萬,增速高達940%,活動期間累計使用者下單超2億次,吸引1.3億人首次體驗AI購物。更關鍵的是,其憑藉實用場景實現高留存,活動後DAU穩定在4000萬,雖然曝光量不及豆包,但仍被摩根士丹利和AI產品資料平台AICPB評為使用者留存率最強,證明了以真實交易驅動的增長策略具備持續生命力。這背後是阿里對AI的獨特理解。正如馬雲所說,科技的意義在於“呵護人間煙火”。千問的路徑很清晰:從對話式聊天轉向能辦事的智能體,用補貼這種最樸素的手段,快速完成使用者心智教育。它不追求炫技,只追求讓更多人用起來。當電商購物的繁瑣流程被濃縮為幾句AI指令,就有機會擊穿更多使用者群體的使用壁壘。不同於抖音和阿里,京東的選擇,是從零建構一個原生AI購物工具。去年底,京東悄悄上架了一款獨立App——京東AI購,搭載自研的JoyAI大模型。圖源:APP STORE京東沒有把現有AI揉進電商體系,而是選擇了一條更徹底的路徑:用自然語言互動取代傳統的貨架與搜尋,實現“一句話購物”。使用者不再需要瀏覽、比價,只需描述需求,AI便直接匹配商品並完成下單。與此同時,京東也在供應鏈端發力。物流調度、工業供應鏈等環節都部署了專用AI系統。正如京東CEO許冉所說,依託自營業務和物流履約能力,京東正在成為AI技術應用場景最豐富的企業。三巨頭,三條路:抖音把AI嵌入現有生態,阿里用補貼砸開使用者心智,京東另起爐灶造原生工具。路徑不同,目標卻一致,即爭奪AI電商時代的下一張門票。AI正在重寫電商的底層邏輯摩根士丹利分析師曾預測,未來幾年AI購物代理將t重塑線上零售格局,到2030年,近半數電商交易有望通過AI代理完成。事實上,AI對電商的改造早已啟動,從商家到平台,使用者往往是感知最晚的一環。首先,AI正在系統性地降低電商的門檻。對中小商家而言,數字人直播、AIGC內容生成、智能客服等工具,讓原本依賴專業技能和人力的線上生意,開始被“數字員工”分擔。其次,AI也在重塑供應鏈。隨著AI對基礎設施的改造,平台甚至可以轉向AI預測使用者要什麼,供應鏈從被動響應走向主動預判。以京東為例,其物流與倉儲環節的AI系統已在推動這一轉變。今年,京東“AI年貨地圖”首次上線,其基於巨量資料與人工智慧,能夠預測不同區域的消費偏好,提前指導商品分倉與布貨,提升時效。圖源:京東而在使用者側,AI購物助手的普及,正在顛覆過去二十年的遊戲規則:流量分配。過去,誰佔據搜尋首頁誰就能贏,商家為此投入巨大預算。而未來,如果使用者不再主動搜尋,而是直接告訴AI需求,那麼流量入口就將從關鍵詞排名轉向需求匹配。商家的任務從搶排名,變成讓AI理解自己的商品。平台的角色也從分發流量轉向分發需求——這是一場權力的重新洗牌。這意味著,誰掌握AI入口,誰就掌握使用者。當人們習慣用豆包購物、用千問點外賣、用京東AI下單,傳統電商的流量壁壘將被逐步瓦解。但挑戰同樣真實存在。一是算力瓶頸。億級使用者同時呼叫AI下單,算力消耗遠超傳統操作,平台必須持續加碼AI基礎設施的建設,這無疑是一筆巨大的投入。二是使用者心智的培育。對商家而言,AI帶來降本增效是明確的剛需,但對使用者來說,用AI購物是否真的是“真需求”,仍需檢驗。在今年的春節AI大戰中,補貼換來的下載高峰,未必完成了有效的使用者篩選。如何讓使用者從薅羊毛走向真習慣,是每個平台都必須回答的問題。但無論如何,槍聲已經響起。這一次,不僅僅是概念或試點,而是巨頭們真金白銀的投入、千萬級使用者的驗證、商業閉環的打通。雖然結果如何還尚未可知,但唯一可以預見的是,時代的變化,一定比想像中來得更快。 (電商之家)
大模型:超人智能誕生,邁向矽基文明
AI大模型作為開啟AI時代的鑰匙,正引起一場時代巨變。在社會影響層面,AI正全方位重構人類生活與工作範式。它打破了傳統的技能壁壘,讓普通人擁有成為超級個體、一人公司的可能,並推動了頂尖專業的法律、醫療等服務向大眾普惠。然而,當前全球仍有約84%的人口從未接觸過AI,這既加劇了全社會的認知分化,也預示著AI基礎設施正處於類似30年前網際網路爆發的前夜,機遇和空間極大。在技術演進上,大模型面對傳統“大力出奇蹟”帶來的算力與資料瓶頸,行業正加速轉向演算法最佳化(如DeepSeek的高效做減法)與多模態的感官進化。展望未來,大模型發展將呈現五大決定性趨勢:推理端算力需求將迎來指數級爆發;後訓練將接棒預訓練成為破局核心,讓大模型從“通才”向頂尖“專才”跨越;世界模型的大規模落地將賦予AI理解真實物理規律的能力;中國AI企業將在馬太效應中確立全球引領地位;而人機對齊與安全監管,將成為護航人類走向AI文明的紅線。1AI大模型:對社會五大深遠影響全社會都在熱議大模型,對大眾而言,它最直觀的表現形態,就是我們手機和電腦裡越來越聰明的AI助手——比如國際上的ChatGPT、Gemini、豆包、千問等。然而,在這些聊天背後,大模型本質上是一種建立在海量資料和超大算力之上、具備“通用認知能力”的革命性AI系統。一是資料大、大模型見識廣,它幾乎被喂下了人類有史以來在網際網路上產生的全部文字、書籍、論文和程式碼。二是參數大,它的內部包含了數千億甚至上兆個數學參數,就像人類大腦神經元之間的突觸,交織成了極其複雜的邏輯網路。三是算力大,它需要成千上萬張最頂級的GPU晶片,耗費數月時間日以繼夜地進行運算。正因為這種前所未有的規模,大模型變成了能夠自主進行內容創作、邏輯推理、編寫程式碼乃至與人類共情的“生成式智能”,讓AI自主思考。2026年起,AI將全方位重構人類的日常生活、工作模式與社會關係。大模型的普及對大眾的深遠影響,在以下五個維度:影響一:技能壁壘被全面打破,人人皆可成為超級個體,人人都是創作者。過去需要極高學習成本的職業壁壘將被大幅削弱。比如,在程式設計開發領域,借助具備自主規劃能力的智能體,不懂程式碼的普通人也能通過自然語言從零建構百萬行程式碼的產品,實現個人軟體開發。在內容創作領域,毫無剪輯和設計經驗的人,憑幾句提示詞,就能呼叫AIGC工具(如Seedance2.0、Sora等)生成專業級的影視分鏡、廣告海報甚至遊戲資產。創意轉化為成果的門檻大大降低,一人公司成為趨勢,但也意味著單一基礎技能的市場價值正在快速衰減。這一趨勢將深刻重塑當前教育體系。當掌握技能的門檻被大模型踏破,教育的護城河將被徹底重估。在小學、初中等基礎教育階段,傳統的填鴨式知識灌輸、死記硬背將徹底失去意義,獲取標準答案已無意義。基礎教育的核心必須不可逆地轉向培養孩子的提問能力,這就是我們在使用AI大模型中所用到的Prompt思維(提示詞思維)。同樣,培養批判性思考、想像力以及人機協同的素養在AI大模型時代同樣重要。未來,在大學等高等教育層面,以單一規則和熟練度為主的傳統專業如基礎程式設計、初級翻譯、傳統財會等將面臨一定的生存危機。高等教育的終極目標,必須從過去批次製造標準化技術工,全面跨越到培養能夠跨學科整合資源、具備極高審美與戰略全域觀的“AI指揮專家”。未來的文憑將不再是基礎技能的背書,而是駕馭AI能力的體現。影響二:工作與生活範式重構,進入人機協作的超級AI助理時代未來的大模型,不僅僅能處理大家工作生活中的種種問題,還將更加廣泛的以智能體AI Agent的形式展開。在生活場景中,AI可以自動整理家庭帳單、定製專屬學習計畫、規劃包含機酒預訂的複雜旅行路線;在工作場景中,AI能自動篩選撰寫郵件、生成會議紀要、檢索跨系統資訊,成為高度定製化的第二大腦。將大眾的時間與精力徹底釋放到創造性事務上。影響三:頂尖專業服務走向普惠,隨時隨地呼叫專家智囊垂直行業大模型的崛起,讓原本昂貴且稀缺的醫療、法律等知識密集型服務變得觸手可及。比如在醫療健康場景,大眾在基層即可獲得媲美資深醫生的AI輔助診斷,比如螞蟻阿福等應用的出現,就是讓AI醫療變得觸手可及;在法律應用場景,普通人能以極低的成本獲取準確率極高的合同審查和文書起草服務。大模型實質上推動了頂尖專業資源的平權。影響四:大模型加速了認知鴻溝差距,認知平權尚未到來儘管大模型賦予了個體極大的生產力躍升,但在宏觀層面上,它沒有立刻帶來普惠的認知平權,而正以前所未有的速度加劇全新的不平等。不使用AI的人會有認知落後、被時代“遺棄”的風險。據統計,截至2026年初,全球80億人口中,約84%(68億人)壓根從未接觸過AI。真正使用過免費AI對話工具的人群僅佔16%(約13億人),而每月付費20美元深度使用AI的約1500-2500萬人,使用AI輔助程式設計工具僅約200-500萬人,這些先鋒群體其實目前仍佔比極低。這意味著,極少數率先掌握大模型工具的群體正在利用技術槓桿獲得幾何級數放大的競爭優勢,而絕大多數普通人目前仍被排斥在技術紅利之外。未來全社會的認知分化,將極大程度上取決於對AI工具的掌握與應用程度。影響五:全球用過大模型的人口不足20%,AI基礎設施處於爆發前夜當前大模型在普通大眾中的滲透階段,猶如30年前的網際網路。1995年,全球網民不到4000萬人,佔世界人口不到0.8%,而30年後網際網路已覆蓋全球超50億人。如今約有84%的全球人口尚未接觸AI,這預示著AI海嘯其實還是處於爆發前夜。隨著推理成本的持續下降和智能體的全面鋪開,大模型將迅速從少數人的先鋒工具演變為全民的底層基礎設施。對於普通大眾而言,儘早打破認知壁壘,主動跨入那使用AI的、付費深度使用、用AI創造價值的極少數人的行列中,是在這輪AI文明演進中避免被邊緣化、搶佔時代先機的唯一出路。2拆解AI大模型技術原理第一,我們看AI大模型到底在幹什麼?簡單說,大模型的本質,就是用電腦語言“預測下一個詞”出現的機率。機器的演算法和人類大腦極其相似。大模型通過海量閱讀,尋找特徵、計算條件機率,最後生成可能性最高的句子,並不斷通過反饋強化學習。它是在用電腦語言壓縮人類的邏輯,從而理解世界。從1955年開始,歷經統計語言、神經網路、深度學習等階段,直到2020年LLM大語言模型成型,參數量飆升,才讓人機對齊成為現實,AI最終能夠以大模型的方式實現初步普惠、走近普通人的生活。第二,我們看大模型的技術基石,為什麼是Transformer架構和GPT跑出來了?其實,2017年是全球AI真正的分水嶺,Google開放原始碼的Transformer架構徹底打下了今天大模型的江山。在這之前,AI界主要用CNN(擅長看圖)和RNN(擅長處理句子)。但老一代的RNN有個致命弱點:它必須按順序一個詞一個詞地讀,無法同時處理,效率極低。而Transformer的偉大之處在於它打破了順序的枷鎖,實現了“平行計算”:它能一口氣吞下整段文字,完美契合了GPU的大規模並行算力。正是從這一刻起,算力能夠高效轉化。為什麼說從GPT開始,大模型的商業邏輯閉環了?因為從GPT選擇的技術路線是只專注做一件事:永遠去預測下一個詞。這讓它的結構極其純粹,部署極快。更重要的是,在同等算力投入下,單向模型能把資源的投入產出比做到極致。第三,其實,AI大模型進入“ChatGPT時刻”的本質,就是量變引起了質變,機器突然擁有了“湧現(Emergence)”能力 。當模型參數量突破“百億”這個臨界點時,它不再是單純的死記硬背,而是突然展現出類似人類的推理和思維能力,精準度呈指數級飆升 。就像幼兒學說話,前期積累單詞,突然有一天不需要提示,就能說出極其複雜的長難句,這就是AI的湧現。這表現為“給個提示就能答對(上下文學習)”和“一步步邏輯推導(思維鏈)” 。雖然機理仍是“黑箱”,但這被視為機器邁向智能的前兆。第四,大模型過去幾年的信仰是“大力出奇蹟”,即Scaling Law。參數越大、資料越多、算力越強,大模型就越聰明 。但是現在已經遇到了兩大現實瓶頸。第一是木桶效應,大模型不能偏科。不能只砸錢買算力,沒有好資料喂養,模型性能就會停滯。參數、資料、算力必須按比例同步增長。第二是邊際效應遞減。性能達到高位後,再提升一點點,需要付出幾十倍的成本。比如推測GPT-5參數是GPT-4的六倍,Grok-3算力是上一代的十倍,但性能只是小幅提升。這說明“單純靠暴力堆算力”的路線快走到頭了。所以,我們要看未來大模型技術的兩大最佳化方向。3  大模型未來發展方向:演算法最佳化、感官進化當前AI大模型的演進正從單純的“算力競賽”轉向更深層的“架構革命”,核心突破體現在演算法效能與感官進化。一是在大模型演算法層面,行業正在經歷一場由“堆料”向“做減法”。過去,大模型極度依賴參數堆疊和算力擴張,但隨著邊際效益遞減,以DeepSeek為代表的演算法最佳化路徑打破了“唯算力論”。AI大模型正變得更輕巧、更廉價且更聰明。通過混合專家模型(MoE)實現計算資源的精準分配,利用多頭潛在注意力機制(MLA)對長文字資訊進行高倍壓縮,並輔以知識蒸餾技術將複雜智慧遷移至輕量化模型。這種變革的本質是利用演算法架構的創新來避險昂貴的算力成本,讓通用人工智慧的門檻從算力霸權回歸到效率邏輯。二是在感官層面,AI大模型的突破方向是多模態統一,打破文字、圖像、音訊、視訊的壁壘,實現多種資料的統一處理和理解,讓模型既能讀文字、看圖片,也能聽聲音、分析視訊。這種感知力的質變,讓AI徹底突破了文字框的限制,為具身智能、腦機介面等前沿場景提供了具備空間感知和動態預測能力的數字大腦。4全球主流AI大模型:格局分析截至2026年2月,大模型發展正經歷著從無序競爭到頭部集中的演變,市場格局更加穩定。全球主流大模型在應用特點與優勢上呈現出以下特徵:Google (Google/DeepMind):作為AI大模型基礎架構的絕對奠基者,其在2017年提出了Transformer架構與注意力機制。Google除了早期展現“湧現”能力的 PaLM 和 LaMDA,其當前的核心主力Gemini更是原生多模態領域的標竿。Gemini打破了單一文字限制,從底層實現了文字、圖像、音訊和視訊的融合處理;此外,它深度內嵌於Android生態與Google搜尋中,Gemini Live等模式在即時語音互動、長上下文理解以及跨應用資訊整合方面具有極強的應用落地優勢。同時,Google依託龐大的應用生態,日均處理呼叫量達數兆級,在推理端佔據主導地位。OpenAI (GPT系列):作為行業先驅,其最新一代GPT-5(參數量超10兆)在個性化互動、更強推理邏輯及程式設計能力上具有顯著優勢。其原生多模態模型GPT-4o的平均響應時長僅需320毫秒,與人類相當;同時,借助後訓練技術的GPT-o1在數學、程式碼等複雜推理任務上表現好。DeepSeek:率先轉向為演算法做減法,顛覆了“AI訓練必依賴強大算力”的認知。其代表模型DeepSeek V3 通過混合專家模型(MoE)、多頭潛在注意力機制(MLA)等技術,大幅降低了推理延遲、算力需求與落地成本。它在科研輔助領域獨樹一幟,在多項基準測試,如數學計算和程式碼編寫中表現優異。Anthropic (Claude系列):代表模型Claude-3.5-Sonnet在各項基礎測試中表現出色。其衍生的Claude Code在智能程式設計領域應用深入,能夠實現檔案分析、程式碼編輯等,可作為企業虛擬軟體團隊中的開發或測試Agent實現複雜項目的拆解與協同執行。xAI (Grok系列):作為馬斯克旗下的大模型,Grok的核心壁壘在於與X平台的深度繫結,擁有極強的即時熱點解析能力。最新一代Grok-3,在專業領域實現了進一步提升。其應用特點是處理即時新聞和輿情分析方面具有優勢。字節跳動 (豆包 & Seedance):憑藉Seedance 2.0在視訊生成等多模態領域成為行業標竿,其核心通用大模型豆包憑極高的響應速度和擬人化的語音互動體驗,牢牢佔據了國內C端市場頭部。它深度嵌入字節的內容生態,在個人效率提升和智能內容生成AIGC上具有極強的商業落地優勢。月之暗面 (Kimi):作為國內大模型的明星代表,Kimi在文書處理上的核心壁壘是超長上下文窗口技術。它在處理百萬字級超長文件解析、法律合同審查、財報深度分析以及複雜長程式碼閱讀時具有極高精準率,是知識密集型行業依賴的AI生產力工具。阿里巴巴 (通義千問 Qwen):代表開源模型Qwen2.5-72B在精準度測試中名列前茅。在應用端,阿里依託電商場景積累的海量資料,持續最佳化通義千問的商業應用能力,比如千問點外賣等場景。騰訊 (元寶):致力於打造“AI+社交”入口,將元寶大模型精準推向更多效率場景。Meta (Llama系列):其代表模型Llama-3.1-405B作為開源社區的重要力量,在推理與文字生成基準測試中保持著較高的精準度,為開發者提供了強大的基礎模型。5大模型未來五大趨勢通用智能的實現,將完全重構全球經濟分工體系、顛覆所有產業的商業模式,甚至重塑人類社會的底層邏輯。五大決定性的未來趨勢已顯現。趨勢一:AI超級應用爆發後,推理端算力需求將迎來指數級爆發,成為主導未來AI商業版圖的核心戰場。隨著AI應用從探索期進入全面落地期,從雲端到終端的龐大使用者群正以前所未有的高頻次呼叫大模型服務。微軟、Google等科技巨頭的日均Token處理量已躍升至數兆等級,遠超早期聊天機器人時代的計算量。AI算力需求的核心矛盾,正從早期的“模型訓練為主”迅速讓位於“實際落地推理優先”。未來以智能體AI Agent為代表的殺手級應用一旦大規模普及,消費級AI的日活使用者將輕鬆突破十億,佔據整個生成式AI市場70%以上的計算資源,大模型在推理端的算力消耗將呈幾何級數膨脹。趨勢二:後訓練將全面接棒預訓練,成為破局大模型演算法瓶頸的核心。過去幾年,單純依賴擴大參數、算力和資料的“預訓練尺度定律(Scaling Law)”正不可避免地撞上現實天花板。一方面,高品質的公共網際網路資料即將被消耗殆盡,資料獲取與人工標註的成本呈指數級攀升;另一方面,維持和新建超大規模算力叢集的資金壓力極大,底層硬體的物理極限也讓算力規模的無底線暴增難以為繼,行業重心必須向後期的精細化訓練轉移。如果說預訓練是廣撒網,讓大模型掌握基礎的通識能力(成為“通才”),那麼後訓練就是定向爆破,它聚焦特定任務與垂直場景,精準最佳化模型,讓大模型向頂尖的“專才”跨越 。傳統大模型在預訓練後雖具備了通識基礎,但在處理極端複雜的專業任務時常常捉襟見肘。比如在醫療領域,融合真實病例與醫學圖譜的後訓練模型大幅提升了診斷精度;在金融市場,吸收專有資料的模型展現出頂級的風控評估能力。目前的AI大模型精進法則,已從單一的預訓練維度,全面升級為“預訓練+後訓練+即時推理”。趨勢三:世界模型(World Models)將大規模落地,賦予AI理解真實物理規律的高級認知能力。現有大模型無論多麼驚豔,其本質依然是被動接受知識並進行統計機率上的相關性推理,擅長內容生成但缺乏真正的物理因果認知。而世界模型的核心理念則完全不同,它旨在讓AI像人類一樣主動探索、與真實物理環境互動,從而建構起內在的知識體系。它不再僅僅預測下一個詞(token),而是要預測下一個動作或物理狀態。融合多模態、記憶與控製器三大核心元件的世界模型,是實現無人駕駛和具身智能大爆發的關鍵。多模態模型負責壓縮和感知複雜的物理世界資訊,記憶模型負責掌握時間動態並進行未來預測,控製器則負責設定目標並指導機器人執行。這種擁有時空推理能力、甚至能脫離現實進行虛擬模擬的世界模型,研發門檻極高。目前,以特斯拉FSD系統、輝達Cosmos工業模擬為代表的架構已率先試水,預計2026年後,隨著物理AI裝置的普及,世界模型將迎來真正的爆發。趨勢四:全球大模型格局加速向頭部集中,中國AI力量將在馬太效應中確立全球引領地位。早年間“百模大戰”式的無序競爭已經徹底終結,市場篩選機制變得極其殘酷。海量使用者和企業對AI性能、安全與穩定性的苛刻要求,讓那些缺乏核心底層技術的初創模型迅速出局。在這個優勝劣汰的過程中,擁有頂尖研發人才、海量專有資料與充沛資金鏈的中國頭部廠商,成功跨越了技術壁壘,將國產大模型全面拉升至國際第一梯隊。中國科技巨頭與獨角獸企業正在各個細分與通用賽道上形成壓倒性的比較優勢。DeepSeek以極具顛覆性的演算法創新,在科研輔助與極低成本推理上獨樹一幟;字節跳動依託豆包、Seedance在視訊生成等多模態領域牢牢佔據行業標竿;阿里將海量電商消費資料反哺模型,將商業應用落地能力做到極致;騰訊則緊握“AI+社交”入口。這種從技術突破到使用者增長、再到資料反哺的正向循環,將進一步拉大強者與追趕者之間的差距。趨勢五:人機對齊與AI安全監管,將成為決定矽基文明能否平穩延續的紅線。當AI的智力遠超人類且具備高度自主執行能力時,如何確保它在複雜甚至極端環境中做出符合人類道德價值觀的判斷,是當下面臨的最棘手挑戰。由於機器底層缺乏對人類“公平、安全、道德”的天然感知,且訓練資料本身往往帶有網際網路固有的偏見與非理性動機,如果不加干預,高度自主的AI極易在黑箱中演化出不可預測的倫理災難甚至反人類傾向。解決AI道德困境與價值觀對齊,必須依賴企業級技術約束與全球主權政府的深度協同監管。人類社會本身的文化與道德框架就存在巨大差異,達成普世的AI行為準則絕非易事。明確演算法詮釋權與權責劃分,不僅是約束技術的韁繩,更是護航人類安全走向超人智能時代的文明底座。 (澤平宏觀)
靠“養龍蝦”造爆品,OpenClaw火遍海內外!
近一個月,出海圈被一隻“龍蝦”——OpenClaw,徹底刷屏了。現如今,“養龍蝦”不僅成為行業熱詞,更得到了地方政策的積極響應。深圳龍崗、無錫高新區均擬出台相關支援政策,鼓勵平台企業打造“龍蝦服務區”,為開發者免費提供OpenClaw部署服務。同時,兩地對相關項目擬給予高達數百萬元的扶持補貼,用真金白銀降低開發門檻。OpenClaw的出世,也直接改寫了2026年品牌出海的底層玩法,讓“一個人即可完成品牌出海”這件事,從概念真正落地成了現實。圖源:OpenClawOpenClaw是Peter Steinberger在2025年11月打造的開源自主AI智能體框架,核心就是要打破傳統聊天機器人的侷限,讓大語言模型跳出單純的對話圈子,真正能替使用者動手做事,實現AI從“能說”到“能做”的跨越。品牌方舟瞭解到,該項目一開始叫“Clawdbot”,直到2026年1月30日,它正式更名“OpenClaw”,便迎來了爆發式增長。到2026年3月,星標數量一舉突破25萬,一周內訪客量更是達到200萬。這增長速度,更是超過了Docker、Kubernetes、React等早已站穩腳跟的知名開放原始碼專案,成為GitHub上名副其實的黑馬。說到底,OpenClaw最亮眼的地方,就是讓AI真正落地幹活。它給了大語言模型自主處理各類數字任務的權限,不再侷限於“你問我答”的模式。不管是郵件管理、日程調度、網頁瀏覽、資料分析這些日常工作,還是操控終端命令、線上採購預訂,甚至連接智能家居遠端控制,它都能一手包辦,全程無需人工手動干預。圖源:The Verge這只龍蝦憑一己之力掀起AI智能體熱潮,但多數人只把它當成新玩具,殊不知已有玩家早早將其落地,用在品牌出海市場。對出海人來說,自動化營運一直是塊“硬骨頭”。多平台監控、繁瑣重複的工作容易讓人錯失良機,而OpenClaw恰好能解燃眉之急。它可24小時自主運行數字工作流,自動完成海外平台資料抓取、輿情整合分析,還能及時推送關鍵資訊告警。在全球化適配上,OpenClaw的表現同樣可圈可點。它支援多種海外溝通工具,能適配不同區域市場的營運需求,且不繫結單一AI模型,可靈活切換避免限流中斷,依託開源生態還能自訂場景化功能,適配出海的多元需求。而資料合規與資訊安全,更是OpenClaw的一個加分項。它支援本地部署,實現使用者資料“零出境”,規避合規風險。正是這種對出海場景的適配和高效賦能,讓OpenClaw在出海圈迅速積累了超高熱度。圖源:OpenClaw但OpenClaw的上限顯然不止於此,它本身就是用來開發項目的開源框架,普通使用只是它最基礎的用法。憑藉開源特性、模組化的技能體系和可自訂的核心架構,任何人都能基於它進行二次開發,甚至打造出屬於自己的獨立AI產品。2026年2月,就有一名韓國00後程式設計師憑一己之力,基於OpenClaw打造出了AI女友產品Clawra。這款產品有著完整的人生歷程和人設,使用者只要編輯配置檔案和技能程式碼,就能修改它的性格、背景故事和行為模式。也正因如此,Clawra一夜爆紅。這個案例也說明,OpenClaw的可塑性極強,它正在打破傳統開發產品的侷限,讓“一個人做可落地、可傳播、能實現全球化的AI出海產品”不再是天方夜譚。誠然,如上文所述,OpenClaw能為出海從業者解決的實際問題,遠超想像。但從整個行業來看,它帶來的最核心好處,主要體現在出海營運的人力效率和業務落地能力上。此前,AI在品牌出海中的應用,大多侷限於對話式互動,很難參與實際業務操作中,一直停在輔助溝通的層面上。而OpenClaw的出現,徹底改變了這一現狀,讓AI不再只停留在聊天層面,真正能動手處理業務,全面融入出海業務的每一個環節,成為推動品牌發展的核心力量。過去,很多出海營運工作需要多個人配合才能完成,現在一個人搭配OpenClaw,就能高效推進所有流程,既能大幅減少人力投入,還能提升工作效率。除此之外,OpenClaw輕量化、外掛化的特點,還能幫助出海品牌快速搭建適配全球市場的營運體系,打破企業規模帶來的發展限制,實現“小成本出海”,直接降低了中小品牌出海的門檻。圖源:OpenClaw這也給競爭激烈的出海市場,提供一條新的發展路徑。它幫助品牌跳出價格戰、流量戰的惡性競爭,轉而主動去開拓新的增量市場。畢竟,拉美、東歐、東南亞等小眾語種地區,曾因語言障礙大、本地化難度高,一直是多數出海品牌不願觸碰的“盲區”。而OpenClaw能針對性最佳化本地化服務,貼合本土市場的實際需求,讓品牌可以快速進入這些被忽視的小眾市場,通過差異化競爭立足市場。就連國內政府,也擬出台了OpenClaw相關政策。近日,深圳市龍崗區、無錫高新區先後推出“養龍蝦政策”,意在卡位OpenClaw開源智能體賽道,搶佔AI執行層產業先機。兩地皆通過免費部署、算力與資料補貼、辦公空間優惠等方式,幫助OpenClaw與OPC實現“零成本啟動”,進一步降低了相關開發與創業成本,賦能出海路。但在全民“養蝦”的熱潮下,我們也必須提高警惕,紅利背後,隱藏著不少風險問題。首先,OpenClaw的使用門檻過高,存在一定技術壁壘。普通使用者很難輕鬆上手,想要完成部署並高效使用,不僅需要基礎的AI認知和提示詞運用能力,還得掌握環境配置、框架部署、模型偵錯等專業操作技巧。圖源:The HackerNews即便成功投入使用,後期的效果最佳化、資料清洗處理,也對技術能力有較高要求,普通人很難獨立完成。也正因如此,很多自身缺乏技術能力的使用者,只能想辦法尋求外部幫助完成部署,這也給了不法分子可乘之機。所以,近期行業內還出現了不少針對OpenClaw使用者的詐騙手段。諸如,代裝服務導致帳號被盜刷、虛假收益宣傳誘導資金投入、惡意外掛導致資訊洩露等。這些亂象,也讓OpenClaw的出海應用多了一層隱患。其次,OpenClaw的實際使用成本並不低。其主要開銷集中在Token消耗上,輸入和輸出的內容都會按Token計費,長文字互動、多輪對話等場景會快速消耗Token。再加上硬體配置、後期維運、資料標註等隱性成本,整體投入並不少。再者,跨平台生態限制嚴重影響使用的靈活性。不同平台的資料、模型格式、介面互不相容,使用者在單一平台積累的對話記錄、微調資料,無法直接遷移到其他平台。而各平台的API限流、商用授權等規則限制,使用者很容易被繫結在單一生態中,難以自由實現跨平台部署和業務拓展。前段時間,Google就曾限制通過OpenClaw呼叫其AI服務的相關帳號,這也從側面印證了生態限制帶來的實際使用風險。除此之外,安全問題也不容忽視。2026年2月發生的ClawHavoc供應鏈投毒事件,導致超過1800個惡意技能被植入。圖源:atomicmail那些依賴OpenClaw管理店舖後台的出海賣家,其訂單、利潤、廣告等核心敏感資料,很容易被竊取和洩露,直接威脅到店舖的正常營運安全。儘管如此,在出海市場,OpenClaw帶來的意義仍然是不可替代的,它打破了中小品牌出海的諸多壁壘,為行業開闢了新的發展方向。而這場“養蝦熱”不僅帶動相關品牌走向海外,也意外加速了國內大模型的全球化佈局。由於OpenClaw本身不做模型訓練,僅作為模型分發與部署的核心樞紐,每次執行任務都會密集呼叫大型語言模型API,Token消耗量遠高於傳統對話式AI聊天機器人。而這種高消耗特性,恰好為國產大模型出海提供了重要機遇。基於此,Kimi、MiniMax等國產大模型紛紛佈局,推出本土雲端服務。其中,Kimi率先發力,成為首個深度整合OpenClaw並搭建專屬平台的國產大模型。通過OpenClaw,Kimi的海外收入成功反超國內市場,全球訪問量與模型呼叫量實現爆發式增長。而MiniMax也通過整合OpenClaw,搭建官方平台MaxClaw拓展海外市場。全球最大的第三方大模型聚合平台OpenRouter顯示,3月2日當周,MiniMax M2.5模型的周呼叫量達1.87兆Token,環比增長15%,成功登頂全球榜首。圖源:Maxclaw從整體資料看,中國大模型的出海實力已迎來質的飛躍,2月的Token呼叫量首次反超美國,MiniMax、Kimi、DeepSeek等中國模型持續霸榜。這波呼叫量的飆升,不僅印證了國產大模型的技術實力,中國AI技術的影響力在進一步加深,也預示著AI出海已進入實質性競爭階段。對於正佈局出海的玩家來說,2026年出海競爭模式已發生翻天覆地的變化,及時把握趨勢、順勢而為,更有利於在全球化競爭中搶佔先機。 (品牌方舟BrandArk)